查看原文
其他

论信息存储平台适用避风港之“必要措施”(上)

李婕茜 知识产权那点事 2022-11-17

文/ 李婕茜


摘 要

信息存储平台是适用“通知删除”规则的主力军,随着立法的完善、互联网技术的发展和存储内容的多样化,信息存储平台的必要措施界定和具体案件中的责任,也是一个常议常新的话题。随着美国对于DMCA适用的调研评估报告发布、欧盟《单一数字市场版权指令》的颁布、我国网络服务提供者责任由“通知-删除”到“通知-必要措施”,说明网络服务提供者的版权责任是随着市场、技术发展而不断发展变化的。在爱奇艺公司诉字节公司《延禧攻略》案及一系列涉算法推荐信息存储平台被裁定行为保全案,将适用算法推荐的信息存储平台之必要措施是否包含主动过滤的讨论推向了新的高潮。基于前述,本文拟通过分析通知删除制度的起源及发展,算法推荐平台的过滤义务,必要措施在存储平台的适用等,厘清信息存储平台的必要措施适用,并提出合规建议和未来展望。



关键词:信息存储平台  通知删除  必要措施  算法推荐 


避风港制度作为平衡权利人和网络服务提供者之间的桥梁,为权利人提供了有效的侵权处理路径,也降低了平台提供服务的风险,为平台经济的发展提供了保障。但随着互联网技术的迅猛发展,平台服务复杂化、平台内容产生传播方式多样化等,给权利人是否合理通知和平台是否必要措施的判断增加了难度,也不乏为了商业目的而不当投诉或逃避合理措施的情形。《知识产权强国建设纲要(2021-2035年)》强调,我国进入了新发展、高质量发展、知识驱动创新发展阶段,对知识产权保护提出了更高的要求,也全面的建立起了知识产权侵权惩罚性赔偿制度。基于客观的实践变化和政策指引,对于平台责任的研究有现实必要的意义,本文以期通过对我国避风港制度必要措施的分析、结合司法实践,来讨论“必要措施”在信息存储平台的适用。


因篇幅原因,本文分为上下两篇发布,上篇目录如下:


上篇

一、避风港制度的起源及概述

二、从“删除”到“必要措施”

三、使用算法推荐平台的必要措施与过滤义务

一、避风港制度的起源及概述


避风港制度始见于1988年美国《千禧年数字版权法案(DMCA)》,修订了美国版权法以解决版权人与互联网服务商之间的利益分歧,该法案主要规定了四种类型的在线服务商(OSP)及适用避风港的条件,DMCA经过近30年实践后也遇到了诸多困惑,美国版权局自2015年起进行了为期5年的调研,评估DMCA的适用情况并提出了修改建议。DMCA主要适用在版权领域,但实践中法院通过判例将其也运用到了电子商务领域。


在2000年我国《最高人民法院关于审理涉及计算机网络著作权纠纷案件适用法律若干问题的解释》(已失效)首次引入通知删除制度;之后2006年颁布的《信息网络传播权保护条例》(简称“《信网权条例》”)规定了网络服务平台在符合条件时的通知删除不担责,目前适用的是2013年修订版本。随后在《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定 》(简称“《最高法规定》”)《电子商务法》《民法典》等法律法规中都有平台避风港制度的相关规定,但不同法规中具体适用范围、执行标准、要求等有一定差异,概括如下:


《信网权条例》
  • 适用主体:提供信息存储空间、提供搜索、链接服务的网络服务提供者

  • 客体:作品、表演、录音录像制品

  • 通知删除:书面通知,要求删除内容或断开链接

  • 平台处理要求:立即删除或断开连接;转送通知

  • 恢复删除:服务对象提供有效书面说明,立即恢复并转送

《最高法规定》
  • 适用主体:通过信息网络提供内容者

  • 客体:作品、表演、录音录像制品

  • 教唆侵权:平台以言语、推介技术支持、奖励积分等方式诱导、鼓励用户侵权

  • 帮助侵权:明知或应知侵权存在,未采取删除、屏蔽、断开链接等必要措施,构成帮助侵权

  • 明知或应知判断:略

  • 较高注意义务:直接获得经济利益

《民法典》
  • 适用主体:网络服务提供者

  • 客体:各种权利

  • 通知必要措施:通知+转送+根据初步证据和服务类型采取必要措施

  • 后果:未及时采取必要措施,就扩大损失承担连带责任

  • 终止措施:经营者声明+平台转送+投诉者收到后合理期限内未起诉或投诉

  • 明知或应知:应采取必要措施,否则承担连带责任

《电子商务法》
  • 适用主体:电子商务平台

  • 客体:知识产权

  • 通知必要措施:接到通知后,立即采取删除、屏蔽、断开链接、终止交易和服务等必要措施,并转送通知

  • 后果:未及时采取必要措施,就扩大损失承担连带责任

  • 终止措施:经营者声明+平台转送+投诉者收到后15日内未起诉或投诉

  • 明知或应知:应采取必要措施,否则承担连带责任


二、从“删除”到“必要措施”


由上文可见,针对不同的网络服务平台,主要适用的法律法规,客体和平台处理要求等有一定的差异。现从以下几个方面讨论具体到本文的信息存储平台:


首先,需要界定某一平台是否构成信息存储平台,根据相关法规及司法实践总结,信息存储平台至少应满足(1)平台可以证明提供的存储空间服务;(2)标识了本平台提供存储空间服务;(3)可以提供上传者的联系方式等信息;(4)对平台上的侵权内容不存在明知或应知情形。


其次,平台在接到通知后如何处理?法规没有一刀切要求平台如何处理,而是规定处理方式与投诉内容、投诉证据和服务类型有关。各种利用网络的侵权投诉,适用《民法典》规定的转通知并采取必要措施。因《信网权条例》为2013年版本,而《民法典》为2020年颁布,且位阶更高,按照新旧、位阶、一般与特别的法律适用规则,在网络环境中以著作权侵权为由投诉时,法律法规不存在冲突的情况下可以适用《信网权条例》,但存在冲突或有新规定的情况下应适用《民法典》。也即,就《著作权法》所保护的权利类型的投诉,信息存储平台接到通知后应立即采取必要措施并转通知,必要措施包含了删除、断开链接。


再次,信息存储平台的必要措施具体指什么?《民法典》中规定根据投诉证据和服务类型判断必要措施。早在2015年国家版权局印发《关于规范网盘服务版权秩序的通知》,要求网盘服务商应当建立必要管理机制,运用有效技术措施,主动屏蔽、移除侵权作品,防止用户违法上传、存储并分享他人作品。同年还发布了《关于责令网络音乐服务商停止未经授权传播音乐作品的通知》,要求网络音乐服务商停止传播未经授权的音乐作品。基于前述,本文认为,在权利人发出的通知函证据充分且可以准确界定侵权内容的情况下,应转通知+删除/断开链接;在通知函证据有一定瑕疵时,也应结合平台的性质,侵权内容的性质不同而具体判断,如侵权内容可能落入“明知或应知”范畴,或者侵权内容较多权利人无法逐一列举时,平台应谨慎以通知不合格为由仅要求投诉人补充内容,而不做转通知或采取必要措施。一般情况下,建议平台在收函后,立即转通知并同步业务侧核查投诉函情况,对能快速准确识别的侵权内容予以删除、下架,对大量明显的侵权内容,主动采取关键词屏蔽、删除等措施,并存证处理的情况。对于设置类频道的热播视听类内容,建议平台处理侵权投诉后,还应主动以关键词排列组合等方案,删除明显的侵权内容,避免落入“明知”范畴,进而承担侵权责任。


最后,也需要讨论如果信息存储平台一律按照删除、屏蔽等严格的措施处理,但之后通过诉讼等证明属于错误通知,平台是否属于过度采取措施,错误通知的后果以及承担主体是谁?在删除内容符合法律法规规定的应当恢复的条件时,平台无故不恢复或不及时恢复,是否需要承担相应责任?对此相关法规没有明确规定,多规定平台收到合格的说明后应当恢复或满足一定条件后终止措施,但未明确不予恢复或终止的后果。尤其是网络平台的著作权侵权投诉,平台收到上传用户反通知后,若遇到《信网权条例》和《民法典》规定不一致的情形,那该如何适用呢?王迁老师认为应该适用《信网权条例》,但不排除平台为了降低责任,而适用《民法典》[1]。本文认为一般平台作为市场主体,有自主经营权和管理权,且一般用户协议等也会对用户侵权平台处理权作出约定,故此类风险总体可控。综前述,本文主要讨论平台必要措施的界限,是否过度措施及未恢复上架的具体后果等如何需要个案具体讨论,本处暂不展开。


三、使用算法推荐平台的必要措施与过滤义务


欧盟2021年对《单一数字市场版权指令》第17条的专门性指南,在立法层面开创了在线内容分享服务提供商(OCSSP)版权内容过滤义务,建立了寻求版权救济+内容审查过滤+异议反馈救济的版权责任体系,OCSSP的版权法地位从信息存储服务商变为了内容服务提供商[2]


在我国对于必要措施是否包含主动的过滤义务,理论和司法实务届有很多的讨论和不同的观点,尤其在使用算法推荐技术的情况下,平台是否应主动过滤呢?崔国斌老师在《网络技术进步与版权规则重塑》分享中认为,在现今环境下,网络服务商提供过滤具有技术上的可能性和合理性。原江苏高院宋健法官认为,加重各类平台的注意义务,符合当前我国严格保护知识产权的宏观政策导向,也与现阶段大型平台的体量以及技术发展水平基本相适应,为防止“拦截与过滤”措施演变成不合理地施加平台一般事先审查义务,权利人可在作品发布前主动发送侵权预警通知,以便于UGC平台在预警作品热播期主动设置“关键词”过滤和拦截侵权短视频[3]。张凌寒副教授认为,平台等作为“基于算法的信息发布者”兼具“信道”与“信源”的属性,其既不是单纯的网络服务提供者,也不可归类为信息内容提供者,而是介于二者之间[4]


司法实践层面,在腾讯公司诉抖音《斗罗大陆》案中,法院认为必要措施的界定与技术发展密切相关,在现有技术无法实现过滤、拦截等功能或使用该现有技术的成本无法承受的情况下,该技术当然不应纳入必要措施范围,但当该技术本身已成为可能且成本可承受时,则平台在知道新侵权视频仍在不断上传的情况下,其在删除已有侵权视频外承担过滤、拦截义务则是理所当然,进而裁定被告“立即采取有效措施过滤和拦截用户上传和传播侵害《斗罗大陆》动漫作品信息网络传播权的视频”。在算法推荐短视频侵权第一案爱奇艺诉字节侵权《延禧宫略》案[(2018)京0108民初49421号](简称“《延》剧案”)中,法院认定,字节向用户提供的不仅仅是信息存储空间服务,而是同时提供了信息流推荐服务。


对主动过滤措施的反对观点主要集中在

1)平台成本,认为在法律没有直接规定情况下,如果要求平台主动过滤,会不正当的增加平台的经营管理成本;

2)侵害言论自由,认为平台事先过滤可能会侵害用户的言论自由;

3)影响合理使用,过滤主要是通过机器学习、标记内容后实现匹配,进而过滤侵权内容的,但是因为机器本身并不理解文字代表的含义,过滤可能误伤很多合理使用的情形。


本文认为,就成本原因,一是随着技术发展,目前的内容过滤成本相比于以往发生了很大变化,而且我国互联网已经达到了相当的发展水平,国际上也有完全可行的经验参考;二是使用算法推荐侵权的,常见于大平台,平台有一定的治理能力;三是责任与利益是匹配的,正是因为使用的算法推荐,才导致侵权的损害结果扩大,平台也因此获得了更多的流量收益。关于言论自由,一是平台本来也一直因为内容合规要求而对用户发布内容进行审查,对禁止通过互联网传播的不良内容进行过滤处理;二是随着法律的健全完善,个人信息和隐私等保护水平的提升,平台对于用户内容的管理要求的提高,有理由相信善良平台会保护用户的言论自由。三是合理使用,从目前讨论较多的短视频平台来看,对内容的搬运、剪辑、切条绝大多数很难符合合理使用的情形,而且平台也会设有完整的申诉机制,如果误伤,用户也可以通过申诉等实现权利维护。


综上述,本文认为关于使用算法推荐的信息存储平台,必要措施是否包含过滤义务,需要结合具体的平台技术能力、提供的存储内容类型、侵权可能性大小、平台规模等具体判断。以及,随着不同的发展阶段以及监管政策的要求,也会发生一定的变化。建议平台能专项充分分析目前的侵权风险、技术可行性、成本与收益、平台发展预期和生态建设等,在系统全面评估的基础上作出适当决策,长远来讲平台内容合规不侵权是趋势。


向上滑动阅览

[1] 王迁:向应用程序商店发出侵权通知的界限——兼评“虎牙诉华纳案”,《中国版权》杂志2022年第2期。

[2] 顾晨昊、黄玉烨:欧盟《版权指令》“版权内容过滤条款”指南解读及借鉴,《中国版权》杂志2022年第1期。

[3] 宋健:UGC平台“通知-必要措施”规则的发展趋向,《科技.知产财经》2022年4月刊。

[4] 张凌寒:平台算法责任的认定与限度——评“爱奇艺诉字节跳动案”,《科技·知产财经》



(本文为授权发布,仅代表作者观点,未经许可不得转载)



“星标”、“转发”、“在看”,给小编加鸡腿哦!

投稿请联系shipa@shipa.org


近期热文

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存